IA, élections, deepfakes et Jeux olympiques : tous ces thèmes figurent en bonne place dans nos prédictions en matière de cybersécurité pour 2024.
Sacré mélange. Un mélange qui reflète la nature de la cybersécurité. Tout comme les avancées technologiques façonnent la cybersécurité, celle-ci est également influencée par l’évolution du monde dans lequel nous vivons. Les cybercriminels exploitent les technologies nouvelles et émergentes, tout comme ils tirent profit des événements et des tendances. Il s’agit là d’une formule puissante que les acteurs malveillants utilisent encore et encore, et qui leur permet de concocter diverses attaques en constante évolution.
Si vous voulez un exemple précis de l’interaction entre les technologies et la culture, ne cherchez pas plus loin que Barbie. En effet, de nombreuses escroqueries ont vu le jour à l’occasion de la sortie du film Barbie. À l’aide d’outils d’IA, des escrocs ont généré des vidéos prétendant faire gagner des places de cinéma. Grâce à la nouvelle technologie d’IA et au battage médiatique autour du film, ils ont réussi à duper des milliers de victimes.
Nous nous attendons à ce qu’il en soit de même en 2024, et nous avons également plusieurs autres prédictions. Sur ce, regardons vers l’avenir afin que vous puissiez garder une longueur d’avance sur les attaques qui devraient sévir en 2024.
1) Les cycles électoraux seront davantage perturbés par les outils d’IA
L’année 2024 est riche en élections décisives : élections présidentielles aux États-Unis, élections législatives en Inde et élections parlementaires dans l’Union européenne, pour n’en citer que quelques-unes. Si chaque élection comporte sa part de désinformation, l’évolution constante des outils d’IA générative tels que ChatGPT, DALL-E et Stable Diffusion ajoute un niveau de complication supplémentaire.
Si une image vaut mille mots, que vaut une photo, une vidéo ou un clone vocal généré par l’IA ? En termes de désinformation, sa valeur est importante.
De nombreux électeurs se montrent sceptiques lorsque des politiciens font des déclarations visant à discréditer leurs adversaires. Mais lorsque ces propos sont étayés par des preuves visuelles, telles qu’une photo ou une vidéo, ils acquièrent une certaine crédibilité. Grâce aux outils d’IA, quelques mots-clés peuvent donner vie à une fausse déclaration ou accusation sous la forme d’une photo ou d’une vidéo (frauduleuse), que l’on appelle aujourd’hui « deepfakes ».
Il est certain que 2024 ne sera pas la première élection où des acteurs malveillants ou des individus sans scrupules tenteront de façonner l’opinion publique en manipulant des photos et des vidéos. Toutefois, il s’agira de la première élection où les outils d’IA générative seront nettement plus accessibles et plus faciles à utiliser que jamais. Par conséquent, les électeurs peuvent s’attendre à une avalanche de « deepfakes » et de désinformation à l’approche des élections.
L’arrivée d’outils de clonage vocal basés sur l’IA complique encore les choses. Pensez à ce que cela signifie pour les « robocalls » préenregistrés que les campagnes utilisent pour atteindre les électeurs en masse. Désormais, rien qu’avec un petit échantillon de la voix d’un candidat, des acteurs malveillants peuvent créer des clones vocaux d’une fidélité saisissante. Ils lisent le script élaboré par un cybercriminel et mettent des mots dans la bouche de quelqu’un d’autre, ce qui peut nuire à la réputation et à la crédibilité des candidats.
Comme nous l’avons indiqué au début de l’année, le clonage vocal par l’IA est plus facile et plus accessible que jamais. Il est logique que des acteurs malveillants en fassent un usage politique en 2024.
Comment repérer la désinformation
La désinformation a plusieurs objectifs, selon la personne qui la diffuse. Plus généralement, il s’agit d’un gain pour un groupe au détriment des autres. Elle vise à confondre, à détourner et à manipuler son public, souvent en provoquant de fortes réactions émotionnelles. Cela nous invite à examiner attentivement les fichiers multimédias et les messages que nous voyons, en particulier dans le feu de l’action.
Cela peut poser des problèmes à une époque où des quantités massives de contenu défilent sous nos yeux dans nos abonnements et nos flux. Les cybercriminels comptent sur le fait que les gens prennent le contenu pour argent comptant. Pourtant, poser quelques questions peut vous aider à repérer la désinformation quand vous la voyez.
La Fédération internationale des associations et institutions de bibliothèques propose cette liste de contrôle :
- Tenez compte de la source – Examinez le site, sa mission et ses coordonnées.
- Poursuivez votre lecture – Les titres peuvent être exagérés pour obtenir des clics. De quoi est-il question exactement ?
- Vérifiez l’auteur – Faites une recherche rapide sur l’auteur. Est-il crédible ? Existe-t-il vraiment ?
- Sources à l’appui ? – Déterminez si les informations données étayent l’article.
- Vérifiez la date – La reprise d’anciens articles ne signifie pas qu’ils sont pertinents par rapport à l’actualité.
- S’agit-il d’une plaisanterie ? – Si le contenu est trop farfelu, il peut s’agir d’une satire. Faites des recherches sur le site et l’auteur pour vous en assurer.
- Identifiez vos préjugés – Demandez-vous si vos propres croyances peuvent influencer votre jugement.
- Demandez aux experts – Demandez à un bibliothécaire ou consultez un site de vérification des faits.
Ce dernier conseil est particulièrement important. Démystifier la désinformation demande du temps et des efforts. Les vérificateurs de faits professionnels des organes médiatiques et de presse font ce travail quotidiennement. Affichés à la vue de tous, ils constituent un moyen rapide d’obtenir vos réponses. Voici quelques groupes de vérification des faits :
- Politifact.com
- Snopes.com
- FactCheck.org
- Reuters.com/fact-check
Pour faire simple, les acteurs malveillants utilisent la désinformation pour semer la discorde et diviser les gens. Même si tous les contenus controversés ou dérangeants ne sont pas forcément de la désinformation, il s’agit là de signes infaillibles qui vous incitent à vérifier ce que vous avez vu auprès de plusieurs sources crédibles. N’oubliez pas non plus que ces cybercriminels veulent que vous fassiez le sale boulot à leur place. Ils veulent que vous partagiez leur contenu sans y réfléchir à deux fois. En prenant le temps de vérifier les faits avant de réagir, vous freinez la dissidence qu’ils veulent voir se propager.
2) Les escroqueries basées sur l’IA seront les nouvelles stars sournoises des réseaux sociaux
Dans le paysage en constante évolution de la cybercriminalité, l’émergence de l’IA a introduit un niveau inédit de sophistication et de danger. Avec l’aide de l’IA, les cybercriminels possèdent désormais la capacité de manipuler les réseaux sociaux et d’influencer l’opinion publique d’une manière qui était auparavant inimaginable.
L’un des aspects les plus préoccupants de cette évolution est la capacité des outils d’IA à fabriquer des photos, des vidéos et des contenus audio. Ces outils permettent aux acteurs malveillants de créer des contenus très convaincants et réalistes, ce qui rend de plus en plus difficile pour les utilisateurs de faire la distinction entre ce qui est réel et ce qui est manipulé. Les cybercriminels disposent ainsi d’un tout nouveau champ de possibilités pour exploiter les personnes et les entreprises peu méfiantes.
L’une des conséquences alarmantes de cette situation est la possibilité que les noms et les images des célébrités et des influenceurs soient utilisés à mauvais escient par des cyberescrocs. Grâce à leur capacité à générer des contenus très convaincants, ces acteurs malveillants peuvent créer de faux soutiens qui semblent émaner de personnalités connues. Cela peut entraîner une augmentation des escroqueries et des activités frauduleuses, car les consommateurs peu méfiants peuvent être plus enclins à faire confiance et à interagir avec des contenus qui semblent être approuvés par leurs célébrités ou influenceurs préférés.
Les places de marché locales en ligne risquent également d’être la cible de cybercriminels utilisant l’IA. En s’appuyant sur du contenu fabriqué, ces acteurs malveillants peuvent créer de fausses annonces et publicités en apparence légitimes. Cela peut inciter les consommateurs à faire des achats ou à s’engager dans des transactions qui aboutissent finalement à une perte financière ou à d’autres conséquences négatives.
Comment éviter les escroqueries basées sur l’IA sur les réseaux sociaux
Alors que l’IA continue de progresser, il est essentiel que les consommateurs soient conscients des risques potentiels et prennent les précautions nécessaires. Il s’agit notamment d’être vigilant et sceptique à l’égard des contenus rencontrés sur les réseaux sociaux, de vérifier l’authenticité des soutiens ou des publicités, et d’utiliser des places de marché en ligne sécurisées dotées de processus de vérification solides.
3) Le cyberharcèlement chez les enfants va monter en flèche
L’une des tendances les plus inquiétantes à l’horizon 2024 est l’augmentation alarmante du cyberharcèlement, qui devrait être exacerbée par l’utilisation croissante de la technologie deepfake. Cet outil avancé et utilisable à distance est devenu facilement accessible aux jeunes adultes, leur permettant de créer facilement des contenus frauduleux exceptionnellement réalistes.
Auparavant, les cyberharceleurs s’appuyaient principalement sur la diffusion de rumeurs et le harcèlement en ligne. Cependant, avec l’émergence de la technologie deepfake, la portée et l’impact du cyberharcèlement ont atteint de nouveaux sommets. Les cyberharceleurs peuvent désormais manipuler des images facilement disponibles dans le domaine public, en les modifiant pour créer des versions fabriquées et explicites. Ces images manipulées sont ensuite diffusées en ligne, ce qui intensifie le mal infligé à leurs victimes.
Les conséquences de cette tendance à la hausse sont considérables et profondément préoccupantes. Les fausses images et les mots qui les accompagnent peuvent avoir des effets significatifs et durables sur les personnes visées et leurs familles. La vie privée est compromise car les images personnelles sont déformées et partagées sans consentement, ce qui donne aux victimes le sentiment d’être violées et exposées. En outre, le contenu fabriqué peut ternir l’identité d’une personne, entraînant confusion, méfiance et détérioration des relations personnelles et professionnelles.
Le bien-être psychologique et émotionnel des personnes touchées par le cyberharcèlement par deepfake est également en jeu. L’assaut incessant de contenus faux et explicites peut provoquer une détresse, une anxiété et une dépression graves. Les victimes peuvent souffrir d’une perte d’estime de soi, car elles ont du mal à faire la différence entre la réalité et le contenu manipulé qui circule en ligne. L’impact sur leur santé mentale peut être durable et nécessiter un soutien et une intervention importants.
Les effets du cyberharcèlement par deepfake s’étendent au-delà des victimes immédiates. Les familles sont également très touchées, car elles sont témoins de la détresse et de la souffrance de leurs proches. Les parents peuvent se sentir impuissants et dépassés, luttant pour protéger leurs enfants contre les vagues incessantes de cyberharcèlement. La charge émotionnelle sur les familles peut être immense, alors qu’elles font face aux défis de soutenir leurs enfants à travers de telles expériences traumatisantes.
Comment prévenir le cyberharcèlement en ligne
- Éducation et sensibilisation : promouvez l’habileté numérique et sensibilisez les individus aux conséquences et à l’impact du cyberharcèlement. Apprenez-leur à reconnaître les cas de cyberharcèlement et à y réagir, et encouragez-les à signaler tout incident qu’ils rencontrent.
- Politiques et réglementations strictes : mettez en œuvre et appliquez des politiques et des réglementations strictes contre le cyberharcèlement sur les plates-formes en ligne. Collaborez avec les entreprises de réseaux sociaux, les écoles et les organisations afin d’établir des lignes directrices et des procédures pour traiter rapidement et efficacement les cas de cyberharcèlement.
- Soutien et autonomisation : fournissez des systèmes de soutien et des ressources aux victimes de cyberharcèlement. Encouragez une communication ouverte et créez des espaces sûrs où les individus peuvent demander de l’aide et partager leurs expériences. Donnez aux témoins les moyens d’intervenir et de soutenir les victimes, en encourageant une culture de l’empathie et de la bienveillance en ligne.
4) Les conflits à travers le monde vont intensifier la fraude caritative
Les escrocs exploitent les émotions, comme l’excitation suscitée par les Jeux olympiques. Ils jouent également sur la peur et le chagrin.
L’une des méthodes les plus cruelles pour y parvenir est la fraude caritative. Bien que cette pratique prenne de nombreuses formes, elle implique généralement qu’un criminel crée une fausse page ou un faux site caritatif pour tromper des contributeurs bien intentionnés en leur faisant croire qu’ils soutiennent des causes légitimes ou qu’ils versent de l’argent pour aider à lutter contre des problèmes réels.
Ce phénomène se poursuivra en 2024. Nous pensons en outre que cette tendance pourrait s’accentuer en raison des conflits en Ukraine et au Moyen-Orient. Les escrocs pourraient également renforcer l’attrait émotionnel de leurs messages en exploitant la même technologie d’IA que celle qui, selon nos prévisions, sera utilisée lors des élections de 2024. Dans l’ensemble, attendez-vous à ce que leurs attaques soient beaucoup plus sophistiquées que les précédentes années.
Comment faire un don en ligne en toute sécurité
- Comme c’est le cas pour de nombreuses escroqueries, chaque fois qu’un e-mail, un SMS, un message direct ou un site vous incite à agir immédiatement, faites une pause. Faites des recherches sur l’organisation caritative. Voyez depuis combien de temps elle est en activité, comment elle utilise ses fonds et à qui elle bénéficie réellement.
- De même, notez que certaines organisations caritatives reversent plus d’argent à leurs bénéficiaires que d’autres. En général, les organisations les plus réputées ne conservent que 25 % ou moins de leurs fonds pour leurs opérations. Certaines organisations peu sérieuses conservent jusqu’à 95 % des fonds, n’en laissant que 5 % pour faire avancer la cause qu’elles défendent.
- Aux États-Unis, la Federal Trade Commission (FTC) dispose d’un site regorgeant de ressources qui vous permettront de faire en sorte que votre don compte vraiment. Des ressources telles que Infodon, Le don en confiance et la liste des associations reconnues d’utilité publique du ministère français de l’Intérieur peuvent également vous aider à identifier les meilleures organisations caritatives.
5) Les nouvelles souches de malwares ainsi que les escroqueries par clonage vocal et visuel et par code QR vont se multiplier
Les capacités de l’IA ne se limitent pas à écrire des poèmes d’amour, à répondre aux questions des devoirs et à créer des œuvres d’art. L’IA peut aussi coder. Cela signifie que mise entre les mains des pirates informatiques, elle peut produire de nouvelles souches de malwares et même créer des sites Web malveillants tout entiers. Et rapidement.
Nous avons d’ores et déjà pu observer que les pirates informatiques utilisent des outils d’IA pour créer des malwares. Cette tendance est vouée à se poursuivre à un rythme soutenu, et nous pouvons nous attendre à voir émerger des malwares plus intelligents également. L’IA est en mesure de créer des malwares qui analysent les défenses d’un appareil et s’y adaptent. Cela permet à des attaques particulièrement malveillantes comme les spywares et les ransomwares d’infecter un appareil en échappant à toute détection. L’IA permet également de créer et de diffuser plus rapidement et plus facilement que jamais des e-mails de phishing convaincants et des codes QR frauduleux. Cela va jusqu’à la création de faux contenus vidéo, photo et audio destinés à tromper des cibles peu méfiantes et à leur soutirer de l’argent. L’augmentation des escroqueries par code QR, également connues sous le nom de « quishing », est un autre sujet de préoccupation. Les escrocs utilisent l’IA pour générer des codes QR malveillants qui, lorsqu’ils sont scannés, mènent à des sites de phishing ou déclenchent le téléchargement de malwares. À mesure que les obstacles à l’entrée de ces menaces diminueront, ces escroqueries se propageront à toutes les plates-formes, en ciblant tout particulièrement les appareils mobiles.
Cependant, comme toute technologie, l’IA est un outil et fonctionne dans les deux sens. L’IA est de votre côté. En fait, cela fait déjà un certain temps qu’il renforce votre sécurité en ligne. Chez McAfee, l’IA constitue un élément central de notre dispositif de protection depuis des années. À ce titre, elle a fait beaucoup pour vous au fil des ans : elle a détecté des virus, des sites Web malveillants et des contenus douteux en ligne. Elle vous a également aidé à éviter les sites Web malveillants.
Vous pouvez dès lors vous attendre à voir émerger un nombre croissant d’outils optimisés par l’IA pour combattre les menaces optimisées par l’IA.
Comment se prémunir des menaces optimisées par l’IA
- Utilisez un logiciel de protection en ligne optimisé par l’IA. Utilisez l’IA bienveillante pour arrêter l’IA malveillante. Cette année, nous avons amélioré notre sécurité optimisée par l’IA afin qu’elle soit plus rapide et plus efficace. Ses analyses sont trois fois plus rapides qu’auparavant et elle offre une protection totale contre les menaces émergentes, telles que celles générées par l’IA. Elle offre également une protection intégrale contre les menaces publiées au cours du mois écoulé (résultats du test AV-TEST, octobre 2023). Vous la retrouverez dans tous nos produits qui proposent un antivirus.
- Protégez-vous des escroqueries grâce à l’IA. La protection anti-escroquerie McAfee utilise une technologie d’IA brevetée et performante pour renforcer votre protection face à la multiplication des escroqueries par phishing, y compris celles générées par l’IA. Elle détecte les URL suspectes dans les SMS avant que quelqu’un ne les ouvre ou ne clique dessus. C’en est fini de devoir deviner si les messages que vous recevez sont authentiques ou frauduleux. En outre, si vous cliquez ou appuyez malencontreusement sur un lien suspect dans un SMS, dans un e-mail, sur un réseau social ou lors d’une recherche dans un navigateur, l’outil bloque le chargement du site frauduleux. La protection anti-escroquerie McAfee est disponible dans tous nos abonnements McAfee+.
6) Les escroqueries sur le thème olympique vont battre leur plein
Les grands événements entraînent leur lot d’escroqueries de grande envergure. Les Jeux olympiques d’été de 2024 ne devraient pas être en reste.
Un événement d’une telle ampleur attire inévitablement les escrocs, qui cherchent à profiter de l’engouement en faisant miroiter des billets, des produits dérivés, des flux exclusifs pour des événements, etc. Mais à la place, ils vous délestent d’une partie de votre argent et volent vos informations personnelles.
Vous pouvez vous attendre à une recrudescence des attaques de phishing par e-mail ainsi que de SMiShing. Aujourd’hui, avec l’avènement de l’IA générative, ces escroqueries sont de plus en plus difficiles à identifier. L’IA rédige des e-mails et des SMS plus propres, réduisant ainsi le nombre d’escroqueries caractérisées par des fautes d’orthographe et de grammaire. Si l’on ajoute à cela l’enthousiasme suscité par les Jeux olympiques, on comprend aisément que les gens puissent se laisser tenter par de fausses loteries et des offres pour un voyage olympique de rêve. Il leur suffit de cliquer sur un lien, qui les mène bien évidemment sur un site Web frauduleux.
Vous pouvez vous attendre à ce que ces messages fleurissent sur différents canaux, notamment les e-mails, les SMS et d’autres canaux de messagerie tels que WhatsApp et Telegram. Ils pourraient également se glisser dans les messageries instantanées des réseaux sociaux.
Si vous prévoyez d’assister aux Jeux olympiques, un autre piège vous attend : la fraude aux billets. Comme nous avons pu le voir lors de la Coupe du monde de football et de plusieurs autres grands événements sportifs au fil des ans, les escrocs créent des sites de vente de billets frauduleux pour toutes sortes de matchs et d’événements. Là encore, ces sites ne sont pas à la hauteur. Quelle que soit l’apparence professionnelle qu’ils revêtent, dès lors que ces sites n’acceptent que des cryptomonnaies ou des virements bancaires, vous pouvez être certain qu’il s’agit d’une fraude. Aucune de ces deux formes de paiement ne permet de contester les frais ou de récupérer les montants perdus.
Comment profiter des Jeux olympiques de 2024 en toute sécurité
- Détecter des attaques de phishing et de SMiShing peut nécessiter quelques efforts. Comme nous l’avons vu, les escrocs à l’origine de ces attaques ont considérablement peaufiné leurs tactiques. Toutefois, si une affaire ou une offre vous semble trop belle pour être vraie, passez votre chemin. Pour en savoir plus sur la manière de repérer ces escroqueries, consultez notre article de blog consacré au phishing et aux attaques similaires.
- Quant aux billets, ils ne sont mis en vente que sur la billetterie officielle des Jeux de Paris 2024. Toute autre personne qui propose des billets en ligne est soit un courtier, soit un escroc pur et simple. Pour bénéficier d’une protection optimale, restez donc sur le site officiel.
- Il en va de même si vous comptez regarder les Jeux olympiques à la maison ou en déplacement. Une recherche rapide en ligne vous permet d’obtenir les noms des diffuseurs officiels de votre région. N’allez pas voir ailleurs. Les flux non officiels peuvent infecter vos appareils avec des malwares ou vous bombarder de publicités douteuses.
- De manière générale, utilisez un logiciel de protection en ligne complet comme le nôtre lorsque vous surfez en ligne afin de rester à l’écart du phishing, du SMiShing et d’autres attaques.